Large language models (LLMs) have been shown to be able to perform new tasks based on a few demonstrations or natural language instructions. While these capabilities have led to widespread adoption, most LLMs are developed by resource-rich organizations and are frequently kept from the public. As a step towards democratizing this powerful technology, we present BLOOM, a 176B-parameter open-access language model designed and built thanks to a collaboration of hundreds of researchers. BLOOM is a decoder-only Transformer language model that was trained on the ROOTS corpus, a dataset comprising hundreds of sources in 46 natural and 13 programming languages (59 in total). We find that BLOOM achieves competitive performance on a wide variety of benchmarks, with stronger results after undergoing multitask prompted finetuning. To facilitate future research and applications using LLMs, we publicly release our models and code under the Responsible AI License.
translated by 谷歌翻译
在电压负载下,已被认为是在紧急情况下恢复电力电网电压稳定性的标准方法,但该方案通常越来越大的负载量。加强学习(RL)被采用作为一种有希望的方法来规避问题;但是,RL方法通常不能保证控制系统的安全性。在本文中,我们讨论了一些新的安全R1方法,即限制优化方法和基于障碍功能的方法,可以在紧急事件下安全地恢复电压。该方法是一般的,可以应用于其他安全关键控制问题。进行了39母线IEEE基准测试的数值模拟,以证明所提出的安全RL紧急控制的有效性。
translated by 谷歌翻译
在本文中,我们提出了一个新的低级矩阵分解模型,称为有界的单纯形成矩阵分解(BSSMF)。给定输入矩阵$ x $和一个分解等级$ r $,BSSMF寻找带有$ r $ lum $ $ columns的矩阵$ w $和a矩阵$ h $,带有$ r $行,以便$ x \ lot在$ w $的每一列中,都有边界,也就是说,它们属于给定的间隔,$ h $的列属于概率单纯词,即,$ h $是列随机。 BSSMF概括了非负矩阵分解(NMF)和单纯结构的矩阵分解(SSMF)。当输入矩阵$ x $的条目属于给定间隔时,BSSMF特别适合。例如,当$ x $的行代表图像时,或$ x $是一个额定矩阵,例如在Netflix和Movielens数据集中,其中$ x $的条目属于Interval $ [1,5] $。单纯结构的矩阵$ h $不仅导致易于理解的分解,从而提供了$ x $的列的软聚类,而且暗示着$ wh $的每个列的条目属于与$的列的相同间隔W $。在本文中,我们首先提出了BSSMF的快速算法,即使在$ x $中缺少数据的情况下。然后,我们为BSSMF提供可识别性条件,也就是说,我们提供了BSSMF承认独特分解的条件,直到微不足道的歧义。最后,我们说明了BSSMF对两个应用程序的有效性:在一组图像中提取特征,以及推荐系统的矩阵完成问题。
translated by 谷歌翻译
现有的最新3D点云实例分割方法依赖于基于分组的方法,该方法指向获得对象实例。尽管产生准确的分割结果方面有所改善,但这些方法缺乏可扩展性,通常需要将大量输入分为多个部分。为了处理数百万点的场景,现有的最快方法软组\ cite {vu2022222222222222222222222222222222222222ggroup}需要数十秒钟,这是满意的。我们的发现是,$ k $ neart的邻居($ k $ -nn)是分组的先决条件,是计算瓶颈。这种瓶颈严重使现场的推理时间恶化了很多。本文提出了软组++来解决此计算瓶颈,并进一步优化了整个网络的推理速度。 SoftGroup ++建立在软组上,这在三个重要方面有所不同:(1)执行OCTREE $ K $ -NN而不是Vanilla $ k $ -nn,以将时间复杂性从$ \ Mathcal {o}(n^2)缩短到$ \ Mathcal {o}(n \ log n)$,(2)执行金字塔缩放,适应性下降样本骨干输出以减少$ k $ -nn和分组的搜索空间,并且(3)执行后期的Devoxelization,延迟了Voxels的转换指向模型的结束,以使中间组件以低计算成本运行。在各种室内和室外数据集上进行了广泛的实验,证明了拟议的软组++的功效。值得注意的是,SoftGroup ++在一个前方的情况下通过单个前方进行了大量的场景,而无需将输入分为多个部分,从而丰富了上下文信息。特别是,SoftGroup ++达到2.4点AP $ _ {50} $改进,而$ 6 \ $ 6 \ times $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $。代码和训练有素的模型将公开可用。
translated by 谷歌翻译
来自3D点云的对象重建在计算机视觉和计算机图形研究字段中取得了令人印象深刻的进展。但是,通常会忽略时间变化点云(又称4D点云)的重建。在本文中,我们提出了一种新的网络体系结构,即RFNET-4D,它共同重建对象及其运动从4D点云中流动。关键见解是,通过一系列点云的学习空间和时间特征同时执行这两个任务可以利用单个任务,从而改善了整体性能。为了证明这种能力,我们使用无监督的学习方法来设计一个时间矢量场学习模块,以进行流程估计,并通过监督对物体重建的空间结构的监督学习来利用。基准数据集的广泛实验和分析验证了我们方法的有效性和效率。如实验结果所示,我们的方法在流动估计和对象重建方面都达到了最先进的性能,同时执行训练和推理中的现有方法要快得多。我们的代码和数据可从https://github.com/hkust-vgd/rfnet-4d获得
translated by 谷歌翻译
自动编辑后(APE)是减少通过机器翻译(MT)系统或软件辅助翻译产生的原始翻译文本错误的重要补救措施。在本文中,我们提出了一种系统的方法来解决越南人的APE任务。具体来说,我们构建了5M越南翻译和纠正句对的第一个大规模数据集。然后,我们使用由构造的数据集应用强大的神经MT模型来处理APE任务。自动和人类评估的实验结果表明了神经MT模型在处理越南APE任务方面的有效性。
translated by 谷歌翻译
The 1$^{\text{st}}$ Workshop on Maritime Computer Vision (MaCVi) 2023 focused on maritime computer vision for Unmanned Aerial Vehicles (UAV) and Unmanned Surface Vehicle (USV), and organized several subchallenges in this domain: (i) UAV-based Maritime Object Detection, (ii) UAV-based Maritime Object Tracking, (iii) USV-based Maritime Obstacle Segmentation and (iv) USV-based Maritime Obstacle Detection. The subchallenges were based on the SeaDronesSee and MODS benchmarks. This report summarizes the main findings of the individual subchallenges and introduces a new benchmark, called SeaDronesSee Object Detection v2, which extends the previous benchmark by including more classes and footage. We provide statistical and qualitative analyses, and assess trends in the best-performing methodologies of over 130 submissions. The methods are summarized in the appendix. The datasets, evaluation code and the leaderboard are publicly available at https://seadronessee.cs.uni-tuebingen.de/macvi.
translated by 谷歌翻译
对文本生成的最新基于嵌入的评估指标的评估主要是基于衡量其与标准基准评估的相关性。但是,这些基准主要是从相似的域到用于浏览单词嵌入的域。这引起了人们对将基于嵌入的指标(缺乏)概括为新的和嘈杂的域的(缺乏)概括,这些指标包含与预处理数据不同的词汇。在本文中,我们研究了BertScore的鲁棒性,BertScore是文本生成最受欢迎的基于嵌入的指标之一。我们表明,(a)基于嵌入的度量与人类在标准基准上具有最高相关性的基于嵌入的度量,如果输入噪声或未知代币的量增加,则具有最低的相关性,(b)从预处理的第一层中嵌入的嵌入模型改善了所有指标的鲁棒性,并且(c)使用字符级嵌入式(而不是基于令牌的嵌入),从预科模型的第一层中实现了最高的鲁棒性。
translated by 谷歌翻译
这项研究介绍了我们对越南语言和语音处理任务(VLSP)挑战2021的文本处理任务的医疗保健领域的自动越南图像字幕的方法作为编码器的体系结构和长期的短期内存(LSTM)作为解码器生成句子。这些模型在不同的数据集中表现出色。我们提出的模型还具有编码器和一个解码器,但是我们在编码器中使用了SWIN变压器,LSTM与解码器中的注意模块结合在一起。该研究介绍了我们在比赛期间使用的培训实验和技术。我们的模型在vietcap4h数据集上达到了0.293的BLEU4分数,并且该分数在私人排行榜上排名3 $^{rd} $。我们的代码可以在\ url {https://git.io/jddjm}上找到。
translated by 谷歌翻译
医疗图像以高分辨率出现。高分辨率对于在早期发现恶性组织至关重要。然而,该决议在建模远距离依赖性方面提出了挑战。浅变压器消除了这个问题,但它们遭受了二次复杂性。在本文中,我们通过利用线性自我注意近似来解决这种复杂性。通过这种近似,我们提出了一个称为HCT的有效视觉模型,该模型代表高分辨率卷积变压器。HCT以明显降低的成本将变形金刚的优点带入了高分辨率图像。我们使用高分辨率乳房X线摄影数据集评估HCT。HCT明显优于其CNN对应物。此外,我们通过评估其有效的接收场来证明HCT对医学图像的适应性。编码可在https://bit.ly/3ykbhhf上获得。
translated by 谷歌翻译